#Rubin AI平台
【CES 2026】這不是顯示卡,是一座 2噸重的AI工廠
美東時間1月5日周一,輝達在CES展會推出新一代Rubin AI平台,標誌著其在人工智慧(AI)晶片領域保持年度更新節奏。黃仁勳在展會上宣佈Vera Rubin已全面投產,該平台重量近2噸,通過六款新晶片的整合設計,在推理成本和訓練效率上實現大幅躍升,實現每秒千億等級的 AI 運算,堪稱一座真正的人工智慧工廠。輝達還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1。該模型旨在打造能在意外情況下"思考"解決方案的車輛,採用 100 億參數架構,使用視訊輸入生成軌跡和推理過程。黃仁勳稱,首款搭載輝達技術的汽車將第一季度在美上路,第二季度在歐洲上路,下半年在亞洲上路。輝達還發佈了多個開源模型、資料和工具,如用於代理AI的輝達Nemotron家族、用於物理AI的Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。01 輝達發佈新一代Rubin平台,性能提升5倍,已全面投產擬下半年發貨美東時間5日周一,輝達CEO黃仁勳在拉斯維加斯表示,六款Rubin晶片已從合作製造方處回廠,並已通過部分關鍵測試,正按計畫推進。他指出"AI競賽已經開始,所有人都在努力達到下一個水平"。輝達強調,基於Rubin的系統運行成本將低於Blackwell版本,因為它們用更少元件即可實現相同結果。微軟和其他大型雲端運算提供商將成為下半年首批部署新硬體的客戶。微軟的下一代Fairwater AI超級工廠將配備輝達Vera Rubin NVL72機架級系統,規模可擴展至數十萬顆輝達Vera Rubin超級晶片。CoreWeave也將是首批提供Rubin系統的供應商之一。該平台的推出正值華爾街部分人士擔憂輝達面臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但輝達保持長期看漲預測,認為總市場規模可達數兆美元。性能提升5倍,推理token生成成本降低至多10倍據輝達公告,Rubin平台的訓練性能是前代Blackwell的3.5倍,運行AI軟體的性能則提升5倍。與Blackwell平台相比,Rubin可將推理token生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。新平台配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,採用88個定製Olympus核心、完整Armv9.2相容性和超快NVLink-C2C連接。Rubin GPU配備第三代Transformer引擎,具備硬體加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的頻寬,而Vera Rubin NVL72機架則提供260TB/s頻寬。晶片測試進展順利,廣泛生態系統支援黃仁勳披露,全部六款Rubin晶片已從製造合作夥伴處返回,並已通過顯示其可按計畫部署的關鍵測試。這一表態表明輝達正維持其作為AI加速器領先製造商的優勢地位。該平台包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域資料安全保護的機架級平台。第二代RAS引擎橫跨GPU、CPU和NVLink,具備即時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模組化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。輝達表示,包括亞馬遜的AWS、Google雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作夥伴CoreWeave、Lambda、Nebius和Nscale也將跟進。OpenAI CEO Sam Altman表示:“智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。輝達Rubin平台幫助我們持續擴展這一進展。”Anthropic聯合創始人兼CEO Dario Amodei稱,輝達“Rubin平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步”。Meta CEO祖克柏表示,輝達的“Rubin平台有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的”。輝達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類伺服器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平台訓練更大型、更強大的模型。評論稱,輝達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬體的舉措之一。因為輝達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。02 物理AI的ChatGPT時刻!輝達“內驅”無人駕駛汽車將至,將於一季度在美國上路黃仁勳還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1,使汽車能夠在真實世界中進行"推理",這標誌著輝達在無人駕駛領域邁出關鍵一步。這一舉措旨在加速安全的自動駕駛技術開發。該模型通過類人思維方式處理複雜駕駛場景,為解決自動駕駛長尾問題提供新路徑。黃仁勳表示,首款搭載輝達技術的汽車將於第一季度在美國上路,第二季度在歐洲上路,下半年在亞洲上路。輝達免費開放Alpamayo模型,允許潛在使用者自行對模型進行重新訓練。該模型旨在打造能在意外情況下"思考"解決方案的車輛,例如交通訊號燈故障等場景。車載電腦將分析來自攝影機和其他感測器的輸入,將其分解為步驟並提出解決方案。這一開源舉措獲得了行業廣泛支援。包括捷豹路虎(JLR)、Lucid、Uber以及加州大學伯克利分校DeepDrive深度學習自動駕駛產業聯盟(BDD)在內,多家移動出行領軍企業和研究機構表示,將利用Alpamayo開發基於推理的自動駕駛技術堆疊,推動L4級自動駕駛部署。首個開源推理VLA模型發佈輝達此次發佈的Alpamayo家族整合了三大基礎支柱:開源模型、模擬框架和資料集,建構了一個完整的開放生態系統供任何汽車開發者或研究團隊使用。Alpamayo 1是業界首個為自動駕駛研究社區設計的思維鏈推理VLA模型,現已在Hugging Face平台發佈。該模型採用100億參數架構,使用視訊輸入生成軌跡及推理軌跡,展示每個決策背後的邏輯。開發者可以將Alpamayo 1改編為更小的執行階段模型用於車輛開發,或將其作為自動駕駛開發工具的基礎,例如基於推理的評估器和自動標註系統。黃仁勳表示:“物理AI的ChatGPT時刻已到來——機器開始理解、推理並在真實世界中行動。無人計程車是首批受益者。Alpamayo為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在複雜環境中安全駕駛,並解釋其駕駛決策——這是安全、可擴展自動駕駛的基礎。”輝達強調,Alpamayo模型並非直接在車內運行,而是作為大規模教師模型,供開發者微調並提取到其完整自動駕駛技術堆疊的骨幹中。未來該家族的模型將具有更大的參數規模、更詳細的推理能力、更多的輸入輸出靈活性以及商業使用選項。推理VLA技術原理解析推理VLA是一種統一的AI模型,將視覺感知、語言理解和動作生成與逐步推理整合在一起。這類模型整合了明確的AI推理功能,在傳統視覺-語言-動作模型的基礎上建構。AI推理是AI逐步解決複雜問題並生成類似於人類思維過程推理痕跡的能力。這些系統對一系列網際網路規模的任務進行預訓練,包括語言生成和視覺連接,以發展通用知識和感知基礎。與將視覺輸入直接對應到動作的標準VLA模型不同,推理VLA模型將複雜的任務分解成可管理的子問題,並以可解釋的形式闡明其推理過程。這使模型能夠更準確地解決問題或執行任務,還能對模型正在進行的操作提供一定程度的反思。建構推理VLA模型需要三種基本AI功能:視覺感知、語言理解以及動作和決策制定。視覺感知處理來自攝影機、毫米波雷達或雷射雷達等感知感測器的即時資料;語言理解通過自然語言處理解釋命令、上下文提示和對話輸入;動作和決策制定則使用融合的感官和語言資訊來計畫、選擇和安全地執行任務,同時生成可解釋的推理痕跡。在自動駕駛場景中,推理VLA可以對交通狀況進行逐步推理。例如,接近一個十字路口時,系統可能會進行如此推理:"我看到一個停止標誌,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。"完整開放生態系統支援開發除Alpamayo 1模型外,輝達還發佈了配套的模擬工具和資料集,建構完整的開發生態系統。AlpaSim是一個完全開放原始碼的端到端模擬框架,用於高保真自動駕駛開發,現已在GitHub平台發佈。它提供真實的感測器建模、可配置的交通動態和可擴展的閉環測試環境,實現快速驗證和策略最佳化。輝達還提供了面向自動駕駛最多樣化的大規模開放資料集,包含超過1700小時的駕駛資料,涵蓋最廣泛的地理位置和條件範圍,覆蓋罕見且複雜的真實世界邊緣案例,這對於推進推理架構至關重要。這些資料集可在Hugging Face平台獲取。這些工具共同為基於推理的自動駕駛技術堆疊建立了一個自我強化的開發循環。開發者可以利用這些資源在專有車隊資料上微調模型,將其整合到基於輝達DRIVE AGX Thor加速計算建構的輝達DRIVE Hyperion架構中,並在商業部署前通過模擬驗證性能。03 跨行業AI模型全面開放本周一,輝達還發佈了推動各行業AI發展的多個新開源模型、資料和工具。這些模型涵蓋用於代理AI的輝達Nemotron家族、用於物理AI的輝達Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。輝達還提供了開源訓練框架和全球最大的開放多模態資料集合之一,包括10兆語言訓練標記、50萬個機器人軌跡、45.5萬個蛋白質結構和100TB的車輛感測器資料。輝達代理式AI基礎模型Nemotron發佈了語音、多模態檢索增強生成(RAG)和安全相關的新模型。Nemotron Speech包含業界領先的開源模型,為即時字幕和語音AI應用提供即時、低延遲語音識別。Nemotron RAG包含新的嵌入和重排序視覺語言模型,提供高度精準的多語言和多模態資料洞察。在物理AI和機器人領域,輝達發佈了Cosmos開放世界基礎模型,為加速物理AI開發和驗證帶來類人推理和世界生成能力。Isaac GR00T N1.6是一個開放推理VLA模型,專為人形機器人打造,實現全身控制,並使用輝達Cosmos Reason實現更好的推理和上下文理解。輝達稱,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技業的領頭羊正在採用並基於輝達的開源模型技術進行開發。輝達的開源模型、資料和框架現已在GitHub和Hugging Face平台發佈,並可通過一系列雲、推理和AI基礎設施平台以及build.nvidia.com獲取。這些模型中的許多還以輝達NIM微服務的形式提供,可在從邊緣到雲端的任何輝達加速基礎設施上進行安全、可擴展的部署。 (華爾街見聞)
【CES 2026】黃仁勳:Vera Rubin 已進入生產,NVIDIA 押注 2026 下半年新一代 AI 平台
一、“已在生產、按期交付”:這次 NVIDIA 在強調什麼黃仁勳在拉斯維加斯 CES 的台上,把一句話說得很直白:Rubin 平台“在生產中”,而且客戶很快就能開始試用,並把時間窗錨定到 2026 年下半年。這種表述的價值,不在於多了一個新名字,而在於它等於在公開場合給路線圖打了一個“里程碑戳”。原因也不難理解。上一代 Blackwell 曾出現過工程與量產節奏上的波折,市場對“下一代是否會再被拖慢”天然敏感。Wired 提到,“full production”這類表述本身並沒有統一、嚴格的行業定義,但分析師往往會把它當成對投資者的訊號:項目在關鍵節點上沒有掉鏈子。與此同時,外部需求確實在推著 NVIDIA 必須更早、更明確地給出交付預期。Bloomberg 的報導強調了“客戶將很快能夠試用”的說法,背後反映的是雲廠商、AI 資料中心營運商對下一代平台匯入節奏的迫切。二、Rubin 不是一顆晶片:NVIDIA 把“六件套”當作產品在 NVIDIA 的敘事裡,Rubin 不再是“某一顆 GPU”,而是一個極端協同設計的六晶片平台。官方新聞稿與 NVIDIA 博文把這套組合列得很清楚:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch。這一套“六件套”的指向,是把資料中心裡原本分散的計算、互連、網路、安全與加速部件,做成可重複交付、可規模化部署的系統工程。你買到的不是“更快的卡”,而是更接近“可直接拼裝成 AI 工廠”的平台底座。Wired 也把這種轉變描述為:NVIDIA 正在把自己從晶片供應商進一步推向“AI 系統提供商”。對讀者來說,理解這裡的關鍵,是不要被命名繞暈:Vera 是 CPU,Rubin 是 GPU,它們與 NVLink、網路卡、DPU、交換晶片一起,被 NVIDIA 當成一個“從機櫃到機房”的系統方案賣給合作夥伴,再由合作夥伴賣給終端客戶。三、性能與成本口徑:那些是官方宣稱,那些需要謹慎理解CES 的舞台天然需要“高能句”。The Verge 總結了 NVIDIA 在演講中最吸睛的幾組口徑:Rubin GPU 的訓練性能相對 Blackwell 可達 5 倍;在某些 “mixture of experts(MoE)” 模型上,整套 Vera Rubin 架構能用約四分之一的 GPU完成訓練,同時把 token 成本降到約七分之一。Wired 則提到 NVIDIA 的另一種表達方式:AI 運行成本可降到 Blackwell 的十分之一量級,並同樣強調“用更少的晶片訓練更大的模型”。這些話可以引用,但不能照單全收。原因不是懷疑其真假,而是它們幾乎都隱含了前提:比較基線是什麼(Blackwell 的那種配置:單卡、HGX、還是 NVL 機櫃級系統);工作負載是什麼(訓練、推理、還是特定 MoE 架構/特定精度);系統瓶頸在那裡(算力、視訊記憶體頻寬、互連、網路、儲存、軟體棧成熟度)。換句話說,這些“倍數級提升”是 NVIDIA 在“整機視角”下給出的系統宣稱,而不是一顆晶片的裸性能。NVIDIA 自己在新聞稿裡也把重點放在“極端協同設計”“降低訓練時間與 token 成本”這種系統指標上。更值得寫清楚的一點是:這些指標的意義,正從“更快”轉向“更便宜”。當大模型應用開始從訓練走向海量推理、從實驗走向規模化部署,客戶最關心的不再只是峰值吞吐,而是每個 token 的成本、每瓦性能、以及在真實資料中心裡“擴起來是否順”。這也是為什麼 NVIDIA 在 CES 上把“成本口徑”放到了和“性能口徑”同等的位置。四、從機櫃到“AI工廠”:NVL72 這類系統化交付意味著什麼如果說“六件套”是概念,那麼 Vera Rubin NVL72 就是把概念變成交付形態的樣板。NVIDIA 的產品頁把 NVL72 定義為機櫃級 AI 超級電腦:72 塊 Rubin GPU + 36 顆 Vera CPU,並配套 ConnectX-9、BlueField-4、NVLink 6,以及面向外部擴展的 InfiniBand 與乙太網路方案。機櫃級方案最大的好處,是把資料中心的複雜度從“現場工程”變成“工廠化裝配”。Barron’s 提到,Rubin 的伺服器系統會更模組化、減少線纜,目標是讓裝配與維護更快。這類變化看似“工程細節”,但對大規模部署來說極其關鍵:裝得更快,意味著新機房上線周期更短;維護更像換模組,意味著停機時間更可控;系統化交付越成熟,越容易複製到更多機房與更多地區。更“硬核”的細節也在浮出水面。CRN 報導中引用了 NVIDIA 對 NVL72 的參數描述:整櫃 HBM4 容量可達 20.7TB,並給出了 LPDDR5x 容量、HBM4 頻寬與互連頻寬等指標,用來強化“系統頻寬”是這一代的核心敘事。Tom’s Hardware 則進一步提到 Rubin GPU 的封裝與 HBM4 配置(如每個封裝的 HBM4 容量與頻寬口徑),同樣指向“為了喂飽算力,視訊記憶體與頻寬在同步升級”。當 NVL72 變成主打形態,NVIDIA 其實在把競爭拉到更高維度:不是你能不能做出一顆晶片,而是你能不能把晶片、互連、網路、安全、軟體一起打包成“可落地、可維運、可擴張”的資料中心機器。五、競爭線:自研晶片、供應鏈與“按期交付”的資本市場含義NVIDIA 當然不是唯一想吃下 AI 資料中心的人。雲廠商在推進自研晶片,晶片創業公司與傳統半導體公司也在尋找突破口。Wired 在報導裡提到,在這種競爭壓力下,NVIDIA 更需要向外界證明兩件事:一是路線圖清晰,二是交付節奏可靠。因此,“已在生產、下半年交付”不僅是工程進度的匯報,也是資本市場溝通的一部分——它把不確定性從“會不會來”收斂到“什麼時候規模化、以什麼形態規模化”。Bloomberg Law 的轉述提到,黃仁勳表示六顆晶片已從製造夥伴處返回,並通過了一些里程碑測試,暗示項目正沿著預定軌道推進。但真正決定 Rubin 能不能延續 NVIDIA 的優勢,仍然取決於更具體、也更難在發佈會上講清的變數:供應鏈與產能爬坡:先進製程、先進封裝與高頻寬記憶體的任何一個環節都可能成為節奏瓶頸;軟體棧與生態遷移:平台化交付意味著客戶不僅換硬體,還要評估相容性與維運體系;Wired 提到 NVIDIA 與 Red Hat 等合作,也可被視為在補齊“平台落地”的軟體側能力。客戶匯入速度:報導提及微軟與 CoreWeave 等潛在早期採用者與資料中心計畫,這類客戶的匯入節奏往往會成為“新平台能否滾起來”的風向標。 (視界的剖析)